1 Ergebnis.

Vereinigte Staaten von Amerika
Die Vereinigten Staaten von Amerika sind nach 1945 zur führenden Weltmacht und zu einem der wichtigsten Partner Deutschlands geworden. Ihre demokratischen politischen Ideale und ihre moderne Kultur fanden bei den Deutschen positive Resonanz. Menschenrechte und ein freiheitlich-pluralistisches Demokratieverständnis prägen beide Gesellschaften. Schließlich trugen die USA entscheidend zur Wiederherstellung der staatlichen Einheit Deutschlands im Jahr 1990 bei. In dieser politischen Landeskunde ...

68,00 CHF